Phóng viên TTXVN tại Rome dẫn tuyên bố ngày 28/4 của OpenAI cho biết ChatGPT đã có sẵn trở lại cho người dùng tại Italy, đồng thời cam kết bảo vệ quyền riêng tư cho người dùng.
Trong số các thay đổi, OpenAI đã đưa thêm các trang và biểu mẫu mới mà người dùng tại Liên minh châu Âu (EU) có thể gửi để xóa dữ liệu cá nhân theo Quy định bảo vệ dữ liệu chung của châu Âu (GDPR). Công ty cũng công bố một bài viết trong trung tâm trợ giúp, nêu rõ cách thức OpenAI và ChatGPT thu thập thông tin cá nhân, bao gồm thông tin về cách liên hệ với nhân viên bảo vệ dữ liệu được GDPR ủy quyền.
OpenAI cũng bổ sung các biện pháp kiểm soát quyền riêng tư vào ChatGPT trong tuần này, cho phép người dùng tắt lịch sử trò chuyện để ngăn OpenAI sử dụng dữ liệu đó cho mục đích đào tạo. Thêm vào đó, người dùng tại Italy sẽ thấy một cửa sổ bật lên, yêu cầu xác nhận họ ít nhất 18 tuổi hoặc, nếu họ từ 13 đến 17 tuổi, cần có sự đồng ý của cha mẹ hoặc người giám hộ để sử dụng ChatGPT.
Công ty OpenAI cho biết đã “giải quyết hoặc làm rõ” các vấn đề do Cơ quan bảo vệ dữ liệu Italy (Garante) đưa ra vào cuối tháng 3 vừa qua. Garante cáo buộc ChatGPT thu thập dữ liệu của người dùng một cách bất hợp pháp và không ngăn được người dùng chưa đủ tuổi truy cập các nội dung không phù hợp, khiến OpenAI phải chặn ChatGPT tại Italy. Công ty có 20 ngày để giải quyết các vấn đề và các cơ quan quản lý cho biết hồi giữa tháng 4 rằng ChatGPT có thể hoạt động trở lại nếu làm như vậy trước ngày 30/4.
Trong một tuyên bố, Cơ quan bảo vệ dữ liệu Italy bày tỏ hoan nghênh các biện pháp mà OpenAI đã triển khai. Cơ quan giám sát nói thêm rằng sẽ “để mắt” đến ChatGPT và tiến hành các hoạt động tìm hiểu thực tế đối với OpenAI dưới sự bảo trợ của lực lượng đặc nhiệm đặc biệt, được Ủy ban Bảo vệ dữ liệu châu Âu thành lập.
Cho đến nay, dường như không có điều chỉnh nào trong số những điều chỉnh trên thay đổi đáng kể cách ChatGPT hoạt động tại Italy. Nhưng OpenAI gần như chắc chắn sẽ phải đối mặt với nhiều thách thức hơn nữa. Tây Ban Nha, Canada và các quốc gia khác đã mở hoặc xem xét mở các cuộc điều tra về các hoạt động của họ, bao gồm cả cách thu thập dữ liệu đào tạo cho mô hình ngôn ngữ lớn và thông tin mà mô hình đó tạo ra cho người dùng. Các nhà lập pháp châu Âu đang thúc đẩy Đạo luật AI, có thể bổ sung các yêu cầu đối với các công ty như OpenAI — có khả năng liên quan đến một số tiết lộ thông tin mới quan trọng.